2 research outputs found

    The new generation hdhodh inhibitor meds433 hinders the in vitro replication of sars-cov-2 and other human coronaviruses

    Get PDF
    Although coronaviruses (CoVs) have long been predicted to cause zoonotic diseases and pandemics with high probability, the lack of effective anti-pan-CoVs drugs rapidly usable against the emerging SARS-CoV-2 actually prevented a promptly therapeutic intervention for COVID-19. Development of host-targeting antivirals could be an alternative strategy for the control of emerging CoVs infections, as they could be quickly repositioned from one pandemic event to another. To contribute to these pandemic preparedness efforts, here we report on the broad-spectrum CoVs antiviral activity of MEDS433, a new inhibitor of the human dihydroorotate dehydrogenase (hDHODH), a key cellular enzyme of the de novo pyrimidine biosynthesis pathway. MEDS433 in-hibited the in vitro replication of hCoV-OC43 and hCoV-229E, as well as of SARS-CoV-2, at low nanomolar range. Notably, the anti-SARS-CoV-2 activity of MEDS433 against SARS-CoV-2 was also observed in kidney organoids generated from human embryonic stem cells. Then, the antiviral activity of MEDS433 was reversed by the addition of exogenous uridine or the product of hDHODH, the orotate, thus confirming hDHODH as the specific target of MEDS433 in hCoVs-infected cells. Taken together, these findings suggest MEDS433 as a potential candidate to develop novel drugs for COVID-19, as well as broad-spectrum antiviral agents exploitable for future CoVs threats

    tecniche di deep learning applicate a giochi atari

    Get PDF
    La presente tesi è incentrata sulla progettazione e sperimentazione di varianti per l'algoritmo DQN, diffusamente utilizzato per affrontare problemi di reinforcement learning con reti neurali. L'obbiettivo prefissato consiste nel migliorarne le performance, soprattutto nel caso degli ambienti a ricompense sparse. Nell'ambito di questi problemi infatti gli algoritmi di reinforcement learning, tra cui lo stesso DQN, incontrano difficoltà nel conseguimento di risultati soddisfacenti. Le modifiche apportate all'algoritmo hanno lo scopo di ottimizzarne le modalità di apprendimento, seguendo, in estrema sintesi, due principali direzioni: un miglior sfruttamento delle poche ricompense a disposizione attraverso un loro più frequente utilizzo, oppure una esplorazione più efficace, ad esempio tramite l'introduzione di scelta casuale delle mosse e/o dell'entropia. Si ottengono in questo modo diverse versioni di DQN che vengono poi confrontate fra loro e con l'algoritmo originale sulla base dei risultati ottenuti
    corecore